全球2019百万人被感染,450万失去了持续的Covid-19大流行病。直到疫苗变得广泛的可用,预防措施和安全措施,如戴着面具,身体疏远,避免面对面触摸是一些抑制病毒传播的主要手段。脸部触摸是一种强迫性的人Begvior,在不进行持续派生的情况下,不能防止,即使那么它是不可避免的。为了解决这个问题,我们设计了一种基于SmartWatch的解决方案,Covidalert,利用了随机森林算法,从SmartWatch训练了加速度计和陀螺数据,以检测到面部的手动转换,并向用户发送快速触觉警报。 Covidalert是高能量的,因为它使用STA / LTA算法作为网守,在用户处于非活动状态时缩短手表上随机林模型的使用。我们的系统的整体准确性为88.4%,具有低假阴性和误报。我们还通过在商业化石Gen 5 Smartwatch上实现了系统的活力。
translated by 谷歌翻译
很少有细粒度的分类和人搜索作为独特的任务和文学作品,已经分别对待了它们。但是,仔细观察揭示了重要的相似之处:这两个任务的目标类别只能由特定的对象细节歧视;相关模型应概括为新类别,而在培训期间看不到。我们提出了一个适用于这两个任务的新型统一查询引导网络(QGN)。QGN由一个查询引导的暹罗引文和兴奋子网组成,该子网还重新进行了所有网络层的查询和画廊功能,一个查询实习的区域建议特定于特定于特定的本地化以及查询指导的相似性子网络子网本网络用于公制学习。QGN在最近的一些少数细颗粒数据集上有所改善,在幼崽上的其他技术优于大幅度。QGN还对人搜索Cuhk-Sysu和PRW数据集进行了竞争性执行,我们在其中进行了深入的分析。
translated by 谷歌翻译
尽管机器学习分类器越来越多地用于高风险决策(例如癌症诊断,刑事起诉决策),但他们表现出了针对代表性不足的群体的偏见。公平性的标准定义需要访问感兴趣的敏感属性(例如性别和种族),这通常不可用。在这项工作中,我们证明了在这些敏感属性未知的情况下,人们仍然可以通过使用从敏感属性预测因子得出的代理敏感属性来可靠地估计并最终控制公平性。具体来说,我们首先表明,只有对完整数据分布的了解,就可以使用敏感属性预测因子获得分类器真实公平度量的上和下限。其次,我们证明了如何通过控制代理敏感属性的公平性来证明人们如何证明对真实敏感属性的公平性。我们的结果在比以前的作品明显温和的假设下得出。我们在一系列合成和真实数据集上说明了结果。
translated by 谷歌翻译
随着机器学习(ML)更加紧密地编织到社会中,如果我们要负责任地使用它,我们必须更好地表征ML的优势和局限性。现有的ML基准环境(例如董事会和视频游戏)为进度提供了明确定义的基准测试,但是组成的任务通常很复杂,而且通常不清楚任务特征如何对机器学习者的整体难度有所贡献。同样,如果没有系统地评估任务特征如何影响难度,则在不同基准环境中的性能之间建立有意义的联系是一项挑战。我们介绍了一个新颖的基准环境,该环境提供了大量的ML挑战,并可以精确地检查任务要素如何影响实际难度。工具框架学习任务是“董事会清除游戏”,我们称之为“隐藏规则”游戏(GOHR)。环境包括一种表达性的规则语言和可以在本地安装的圈养服务器环境。我们建议一组基准的规则学习任务,并计划为有兴趣尝试学习规则的研究人员提供绩效领导者板。 GOHR通过允许对任务进行罚款,受控的修改来补充现有环境,使实验者能够更好地了解给定学习任务的每个方面如何有助于其对任意ML算法的实际困难。
translated by 谷歌翻译
机器学习模型,尤其是人工神经网络,越来越多地用于为在各个领域的高风险场景中(从金融服务,公共安全和医疗保健服务)提供信息。尽管神经网络在许多情况下都取得了出色的性能,但它们的复杂性质引起了人们对现实情况下的可靠性,可信赖性和公平性的关注。结果,已经提出了几种A-tostori解释方法来突出影响模型预测的特征。值得注意的是,Shapley的价值 - 一种满足几种理想特性的游戏理论数量 - 在机器学习解释性文献中获得了知名度。然而,更传统上,在统计学习中的特征是通过有条件独立性正式化的,而对其进行测试的标准方法是通过有条件的随机测试(CRT)。到目前为止,有关解释性和特征重要性的这两个观点已被认为是独特的和独立的。在这项工作中,我们表明基于沙普利的解释方法和针对特征重要性的有条件独立性测试密切相关。更确切地说,我们证明,通过类似于CRT的程序实现了一组特定的条件独立性测试,评估了Shapley系数量,以执行特定的条件独立性测试,但用于不同的零假设。此外,获得的游戏理论值上限限制了此类测试的$ p $值。结果,我们授予大型Shapley系数具有精确的统计意义,并具有控制I型错误。
translated by 谷歌翻译
近似贝叶斯计算(ABC)是具有顽固性函数模型的流行无可能推理方法。由于ABC方法通常依赖于比较观察到的数据和模拟数据的摘要统计数据,因此统计数据的选择至关重要。此选择涉及信息丢失和减少维度之间的权衡,并且通常是根据领域知识确定的。但是,手工制作和选择合适的统计数据是一项费力的任务,涉及多个试用步骤。在这项工作中,我们引入了一种用于ABC统计选择的积极学习方法,该方法可大大减少域专家的工作。通过参与专家,我们能够处理拼写错误的模型,这与现有的减小方法不同。此外,与现有方法相比,在模拟预算有限时,经验结果显示出更好的后验估计。
translated by 谷歌翻译
嵌入在自主系统中的机器学习(ML)组件的增加使用 - 所谓的启用学习的系统(LES) - 导致压力需要确保其功能安全性。至于传统的功能安全,在工业和学术界的新兴共识是为此目的使用保证案例。通常,保证案例支持可靠性的支持权,支持安全性,并且可以被视为组织争论和从安全分析和可靠性建模活动产生的证据的结构化方式。虽然这些保证活动传统上由基于协商一致的标准,但由于ML模型的特点和设计,在安全关键应用中,LES构成了新的挑战。在本文中,我们首先向LES提出了一种强调定量方面的总体保证框架,例如,打破系统级安全目标与可靠性指标中所述的组件级要求和支持索赔。然后,我们向ML分类器介绍一种新的模型 - 不可能可靠性评估模型(RAM),该分类器利用操作简档和鲁棒性验证证据。我们讨论了模型假设以及评估我们RAM揭示的ML可靠性的固有挑战,并提出了实用的解决方案。还基于RAM开发了较低ML组件级的概率安全争论。最后,为了评估和展示我们的方法,我们不仅对合成/基准数据集进行实验,还展示了我们对模拟中自动水下车辆的综合案例研究的方法。
translated by 谷歌翻译